RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 361
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 22 Novembre 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Free atteint les 174 Mbit/s de débit en technologie DSL
Internet est devenu un outil important d'apprentissage à l'école
Un super ordinateur virtuel se joint à la lutte contre le sida
Avenir
Un robot japonais d'assistance dans les lieux publics
Matière
Une nano-fibre biodégradable produite à partir de déchets
Grande Bretagne : La bioénergie en plein développement
Espace
Le Japon confirme ses ambitions spatiales en posant sa sonde sur un astéroïde
Terre
L'homme est bien responsable de l'accumulation des gaz à effet de serre
Forte réduction de la calotte glaciaire arctique
Vivant
Première mondiale en chirurgie : une greffe partielle du visage réalisée à Amiens
Cancer du cerveau : une thérapie utilisant un virus modifié donne de résultats prometteurs
Des nanotubes de carbone pour la détection du cancer
Un médicament expérimental pourrait faciliter la lutte contre l'obésité
Réduire les risques de chutes chez les seniors par la prise de vitamine D
Un gène pour ne pas perdre la boussole
Mieux combattre les microbes : Découverte d'une nouvelle voie empruntée par le système immunitaire
Privé d'affection, le nourrisson souffre de modifications cérébrales
La schizophrénie assoit ses bases génétiques
Alzheimer : la mesure du glucose dans le cerveau permettrait une détection précoce de la maladie
Homme
Mozilla Firefox 1.5 est sorti
Les Français champions d'Europe du temps passé sur le Web
Le cybercrime rapporte plus que la drogue !
Google teste la mise en relation téléphonique entre internautes et annonceurs !
Edito
Édito: EINSTEIN, UNE FOIS ENCORE, POURRAIT NOUS AIDER A MODIFIER NOTRE CONCEPTION DE L'UNIVERS



Dans mon éditorial du 14-01-2005 sur Einstein (Voir lettre 319), j'écrivais que cette nouvelle année 2005 s'annonçait capitale pour de nouvelles confirmations de la relativité générale grâce à deux expériences décisives qui devaient en vérifier certains de ses aspects les plus subtils. La première doit confirmer, grâce au satellite de la Nasa, Gravity Probe B, l'effet d'« entraînement des repères » dû à la rotation de la Terre. La seconde va essayer de détecter, à l'aide de l'instrument franco-italien Virgo et de ses deux bras de 3 kilomètres de long, les fameuses ondes gravitationnelles prévues par la théorie de la relativité générale. Mais Einstein est également en train de revenir sur le devant de la scène scientifique par le biais de sa fameuse « constante cosmologique ». Refusant d'admettre l'idée d'un Univers en expansion, Einstein avait en effet imaginé une « constante cosmologique » destinée à contrebalancer cette expansion. Mais confronté ensuite à cette réalité de l'expansion de l'Univers, il reviendra sur cette constante cosmologique.

L'affaire de la constante cosmologique semblait définitivement close mais en observant des supernovae très lointaines, à la fin de l'année 1998, une équipe internationale de chercheurs (parmi lesquels une équipe du CNRS) a calculé que non seulement l'Univers est en expansion, mais qu'il connaît une phase d'accélération depuis environ 4 milliards d'années ! Pour expliquer ce phénomène, un nombre croissant de physiciens considèrent à présent que la fameuse constante cosmologique Einstein est une réalité et qu'elle possède une valeur non nulle. Cette constante pourrait bien correspondre à « l'énergie du vide » ou à cette mystérieuse « énergie sombre », qui représente 70 % de notre Univers, et dont la force serait de sens opposé à la force gravitationnelle.

Début 2005, des astrophysiciens américains ont établi la plus grande carte à ce jour de l'univers confirmant le rôle central de la gravité dans la formation des galaxies et montrant que le cosmos est plat, en expansion et parcouru d'ondulations provoquées par les ondes de choc du "Big Bang". Un univers plat, ayant connu une phase d'expansion très rapide une fraction de seconde après le "Big Bang" vient conforter la théorie dite d'inflation du cosmos. Ces observations ont confirmé la présence massive d'une matière "noire" et d'une énergie "sombre" qui contrebalanceraient les effets de la gravitation et joueraient un rôle essentiel dans l'expansion de l'univers.

Mais voici que ce débat sur l'identité entre cette étrange énergie sombre, présumée responsable de l'accélération de l'expansion de l'Univers et la constante cosmologique d'Einstein vient de rebondir il y a quelques jours. En effet, une étude internationale de la Supernova legacy survey (SNLS) un groupe de recherche international regroupant environ 40 personnes dont une vingtaine de chercheurs français du CNRS et du CEA, cherche actuellement à mesurer précisément l'énergie noire et déterminer sa nature, toujours inconnue. Pour ce faire, les astronomes ont mesuré les distances de 71 supernovae dont les plus lointaines ont explosé quand l'Univers avait moins de la moitié de son âge actuel.

En mesurant le flux des supernovae distantes, expliquent le CNRS et le CEA dans un communiqué commun, il est possible de déterminer si l'énergie "sombre" se comporte "comme la constante cosmologique d'Einstein ou selon de nombreuses autres hypothèses théoriques". "Ce qui distingue ces théories de la constante cosmologique, c'est la dilution, ou pas, de la densité d'énergie noire avec l'expansion de l'Univers", notent les chercheurs. Or les dernières mesures du SNLS, les plus précises à ce jour, "favorisent l'absence de dilution" et vont donc dans le sens de la constante d'Einstein.

Les observations du SNLS indiquent en effet que l'énergie sombre se comporte comme la constante cosmologique d'Einstein avec une marge de précision de 10 %. "Cette découverte a des implications cosmologiques considérables" souligne le Professeur Ray Carlberg du département de l'astronomie et de l'astrophysique à l'université de Toronto. Celui-ci précise que ces observations infirment toutes les théoriques au sujet de la nature de l'énergie sombre qui prévoient que cette mystérieuse énergie devait se diluer à mesure que l'expansion de l'Univers s'accélère. (Voir article ). Carlberg souligne que ces observations du SNLS confortent très sérieusement l'hypothèse selon laquelle l'énergie sombre et la constante cosmologique d'Einstein décrivent bien la même force fondamentale répulsive de l'Univers. Rappelons qu'Einstein avait introduit sa "constante cosmologique" en 1917 dans ses équations de la relativité générale, pour appuyer son idée que l'univers était statique. Mais 30 ans plus tard, il reconnaissait son erreur, se ralliant à la thèse d'un univers en expansion. Or cette constante est revenue sur le devant de la scène scientifique en 1998 avec la découverte d'une mystérieuse énergie, baptisée "énergie noire", qui constituerait quelque 73 % de la matière de l'univers. Elle agirait comme une force répulsive à grande échelle, capable de surmonter la force gravitationnelle entre les différents constituants de l'Univers. Aucune autre forme de matière ordinaire ne peut expliquer cette accélération.

A l'origine, lorsque Einstein introduisit sa constante, terme qui s'interprétait physiquement comme une nouvelle force qui tendait à faire se repousser les corps de l'Univers les uns les autres, il la régla de façon à ce que cette force de répulsion contrebalance exactement la gravitation, pour la faire coïncider avec l'idée d'un univers statique. Or, selon des astrophysiciens, si cette constante était un peu supérieure à la valeur donnée par Einstein, ce qui semble bien être le cas selon ces dernières observations de la SNLS, cela expliquerait l'évolution de l'univers telle que nous la connaissons désormais : une force de gravité ralentissant son expansion après le Big Bang, puis une expansion accélérée à mesure que l'effet de cette force de gravité était surmonté par une force de répulsion à grande échelle, désormais appelée "énergie sombre".

Si de nouvelles observations confirment cette équivalence fondamentale entre l'énergie sombre et la constante cosmologique d'Einstein, notre vision de l'Univers en sera bouleversée puisque nous serions alors dans un Univers dont l'expansion irait en s'accélérant et serait infinie. Cinquante ans après sa mort, et un siècle après sa théorie de la relativité restreinte, Einstein, génial physicien, reste au coeur du débat scientifique et nous éclaire encore sur la nature intime de notre Univers.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Free atteint les 174 Mbit/s de débit en technologie DSL
Mercredi, 23/11/2005 - 00:00

L'opérateur Free vient d'atteindre dans ses laboratoires le débit record de 174 mégabits par seconde (Mbit/s) sur une ligne téléphonique. Il s'agissait d'un débit maximum en réception ; l'émission de données n'a atteint que 18 Mbit/s. Ces performances ont été réalisées avec une technologie désignée à ce stade "F-ADSL" et basée sur l'ADSL2+. L'augmentation des débits avec les technologies DSL laisse ainsi présager l'invention de nouvelles applications telles que la télévision haute définition en 3D», indique Free.

Il s'agissait cependant d'une expérimentation technique. «Free n'envisage pas de lancement commercial pour le moment» indique-ton chez le FAI. Actuellement, la principale technologie en vue pour la nouvelle génération de haut débit Internet est le VDSL 2 High Rate ou ligne numérique d'abonné à très haut débit version 2. C'est un standard xDSL, dont les spécifications techniques ont été finalisées par l'Union internationale des télécommunications en mai dernier. Testée par Neuf Cegetel et France Télécom, elle permet théoriquement d'atteindre 100 Mbit/s.

M@tbe.com

Internet est devenu un outil important d'apprentissage à l'école
Mercredi, 23/11/2005 - 00:00

Les nouvelles technologies de l'information et de la communication (NTIC) comme l'ordinateur et Internet occupent désormais "une place à part entière dans le travail des élèves", aussi bien à l'école qu'à la maison, selon une étude rendue publique récemment par le ministère de l'Education. Selon ce baromètre réalisé par Médiamétrie pour la Délégation aux usages Internet (organisme interministériel) et le ministère de l'Education, 86 % des élèves de 11 à 18 ans utilisent l'ordinateur en classe, 87 % à la bibliothèque.

Huit pour cent des élèves disent utiliser l'ordinateur tous les jours, 35 % une à deux fois par semaine, 33 % au moins une fois par mois, 22 % moins souvent et 2 % jamais. En dehors de l'école, 75 % utilisent l'ordinateur pour du travail scolaire, 25 % déclarant ne pas s'en servir. Chez les étudiants de 19 à 24 ans, 69 % expliquent avoir recours à l'informatique dans le cadre de travaux universitaires. Dans 18 % des cas, la fréquence d'utilisation est quotidienne ou presque.

La présence d'enfants de moins de 15 ans, par ailleurs, incite à s'équiper : 71 % des foyers avec enfant sont équipés d'un micro-ordinateur, 52 % de ces foyers disposant d'Internet. Les parents, quant à eux, utilisent moins les nouvelles technologies que leurs enfants : 96 % des élèves, mais 56 % seulement des parents d'enfants de 6 à 15 ans. Conséquence, une bonne part de ces parents (33 %) disent avoir besoin d'une initiation ou d'une formation complémentaire, 67 % estimant avoir les compétences nécessaires.

Pour 2005, le baromètre destiné à "suivre l'évolution des équipements et des usages Internet auprès des individus de 11 ans et plus" a fait l'objet de deux vagues d'enquêtes, en mars et juillet dernier, la troisième étant prévue pour décembre. Pour chaque vague, le dispositif s'appuie sur des enquêtes par téléphone auprès de 1.500 individus représentatifs de la population française âgée de 11 ans et plus.

D'autres chiffres de Médiamétrie montrent la progression constante d'Internet en France. En septembre 2005, ainsi, la France comptait plus de 25 millions d'internautes, soit 48,4 % de la population française âgée de 11 ans et plus. Au deuxième trimestre 2005, 7,9 millions de Français étaient étaient abonnés à Internet via le haut débit, contre 200.000 en 2002.

EN

En

Un super ordinateur virtuel se joint à la lutte contre le sida
Mercredi, 23/11/2005 - 00:00

La recherche pour trouver un remède au sida profite désormais de l'aide d'un super ordinateur virtuel qui couvre le monde entier. Des dizaines de milliers d'ordinateurs personnels à travers le monde ont en effet été enrégimentés par la société IBM avec l'objectif d'examiner toutes les formules chimiques capables potentiellement de conduire à un médicament efficace contre cette terrible maladie. Les ordinateurs personnels ou d'entreprises sont mis à la tâche lorsque leurs fonctions habituelles ont été remplies. Ils doivent évidemment être branchés en permanence sur Internet pour que le système fonctionne. Le projet a été créé il y a un an environ.

Il s'agissait de mettre au point un super ordinateur pour la recherche humanitaire, a expliqué Stanley Litow, vice-président des relations publiques pour IBM, en entrevue à La Presse Canadienne. "Nous avons commencé par mettre le réseau en place et nous avons choisi un premier projet de recherche qui consiste à analyser toutes les protéines fabriquées par le corps humain. Maintenant, nous ajoutons le projet sur le sida, ce qui devrait permettre de raccourcir de plusieurs années la découverte d'une cure contre cette maladie." Mais avant d'y arriver, il faudra tester des centaines de milliers de combinaisons chimiques pour voir comment elles réagissent à la présence de la protéine responsable du syndrome d'immunodéficience acquise. "L'objectif, c'est de trouver un composé moléculaire chimique qui s'attachera à l'une des protéines essentielles au développement du sida", explique M. Olson. On pourrait comparer la protéine ainsi modifiée à une clé couverte d'une gomme dure qui ne peut plus entrer dans la serrure. La progression du sida, qui dépend des apports nourriciers de cette protéine, serait alors stoppée.

Les composés moléculaires chimiques prometteurs seraient testés en laboratoire sur des échantillons de virus du VIH et sur des animaux. Tous les résultats positifs seraient ensuite affichés librement dans des revues scientifiques afin que d'autres chercheurs puissent eux-mêmes les expérimenter. Quelque 40 millions de personnes à travers le monde sont porteurs du virus VIH à l'origine du sida. Au Canada, leur nombre est estimé à 56.000. L'idée de rassembler des dizaines de milliers d'ordinateurs à travers le monde pour accomplir une seule tâche n'est pas nouvelle. Il y a une dizaine d'années environ, un tel système avait été mis au point pour la recherche de signaux extraterrestres dans le cadre du programme SETI (Search for extra-terrestrial intelligence). Il s'agissait alors d'examiner des millions de fréquences radio provenant d'un peu partout dans l'univers dans l'espoir d'en découvrir une qui ne serait pas de source naturelle. Dans le cas du nouveau réseau informatique pour la recherche sur le sida, on estime que plus de 170.000 ordinateurs personnels à travers le monde participent à l'opération et IBM espère que ce nombre continuera d'augmenter. "Il y a 650 millions d'ordinateurs personnels dans le monde, et plus les gens participent au projet, plus les chances de réussite sont bonnes", affirme M. Olson.

Matin

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot japonais d'assistance dans les lieux publics
Mercredi, 23/11/2005 - 00:00

L'entreprise japonaise de robotique Tmsuk a présenté à Tokyo un nouveau robot baptisé RIDC-01 destiné à jouer les agents de renseignements dans les lieux publics ou lors d'événements promotionnels. Cet engin à roulettes orange et blanc, au physique mi-chat mi-lapin qui mesure 1,30 mètre de haut pour un poids de 100 kilogrammes peut se déplacer à la vitesse de 3 km/h. Il est capable de donner des informations vocales et visuelles en parlant et en projetant des images, tel un vidéo-projecteur ambulant. Il peut aussi s'occuper de vider les poubelles et de faire le ménage, à condition d'avoir préalablement été programmé pour ces fonctions de salubrité. Il peut fonctionner soit en "pilotage automatique", soit être télécommandé à distance par réseau de télécommunications local sans fil.

Cet engin, qui coûte quand même la coquette somme de 80.000 euros, est le dernier en date des robots d'entraide sociale que développe le Japon, les entreprises nippones étant encouragées et subventionnées par le gouvernement pour créer des appareils capables de soulager les humains des corvées logistiques. Cette préoccupation est d'autant plus vive que la population japonaise vieillit et que le pays craint de manquer de bras pour assister les personnes âgées. Les robots peuvent aussi être venir en aide après les séismes ou autres catastrophes naturelles. La volonté de faire du Japon le pays le plus avancé dans le développement et l'usage des technologies est aussi un des facteurs qui poussent un nombre croissant d'entreprises (Honda, Toyota, Mitsubishi Heavy Industries, NEC, Toshiba, Matsushita) à se lancer dans la création de robots plus ou moins farfelus.

3yen.com

^ Haut
Matière
Matière et Energie
Une nano-fibre biodégradable produite à partir de déchets
Mercredi, 23/11/2005 - 00:00

Des ingénieurs chimistes de la Cornell University de New York ont découvert un procédé nano-technique qui leur permet de fabriquer une fibre ultra-fine et ultra-résistante à partir d'une matière première renouvelable, biodégradable et surtout, disponible en grande quantité sous forme de déchets industriels : la cellulose. Leur procédé, baptisé "électrofilage", consiste à dissoudre la cellulose puis à filer ce polymère liquide en le forçant, grâce à un intense champ électrique, à passer à travers un nano-trou d'épingle d'un diamètre de 100 nanomètre (1/10 millionième de mètre). Cette technique permet d'obtenir des fibres offrant une bien plus grande surface de contact que les fibres produites par un filage classique. Le procédé permettrait ainsi de créer des nanomatériaux dont on pourrait ajuster les propriétés physiques, mécaniques ou chimiques en fonction des besoins. Il est d'autant plus prometteur qu'il permet d'utiliser comme matière première les déchets et résidus issus de l'exploitation du bois et du coton. Les chercheurs pensent que leur électrofilage de la cellulose permettra bientôt de produire à faible coût des membranes filtrantes et des tissus à la fois indéchirables et biodégradables. À terme, ces fibres pourront être utilisées dans les vêtements de protection, les filtres à air et à eau, ainsi qu'en agriculture.

UPA

Grande Bretagne : La bioénergie en plein développement
Mercredi, 23/11/2005 - 00:00

Avec l'objectif élevé que 10 % de l'électricité produite le soit par le biais des énergies renouvelables en 2010, le Gouvernement britannique doit pouvoir compter sur toutes les sources d'énergie possibles. La biomasse (bois, plantes, céréales, déchets organiques) est une des plus prometteuses car la technologie impliquée ne diffère guère de celle des systèmes de génération classique. Pour le moment, le Gouvernement a créé différents plans : le " Bioenergy Capital Grants Scheme " (aides financière), l'" Energy Crops Scheme " (plantes énergétiques) et le " Bioenergy Infrastructure Scheme " (infrastructures), afin de stimuler le marché et de développer une chaîne logistique de l'extraction de la biomasse jusqu'à la distribution d'électricité aux particuliers.

L'une des principales techniques utilisées dans la stratégie gouvernementale est la combustion combinée de biomasse et de charbon dans les centrales à charbon, avec pour objectif que le nombre de " Renewable Obligations Certificates " (Certificat d'obligation d'énergies renouvelables) excède les 2 millions. Pour mettre en place une chaîne d'approvisionnement de la biomasse, le développement de plantes énergétiques spécifiques est étudié. Parmi les différentes possibilités, les taillis de saule, rejets naturels de l'arbre, se renouvellent très rapidement et sont donc facilement disponibles. Ces taillis ont été testés à la centrale Drax de Selby à l'est du Yorkshire par la compagnie " Renewable Fuel ", et, en remplaçant 10 000 tonnes de charbon, ils ont empêché l'émission d'environ 22 000 tonnes de dioxyde de carbone. Pour développer ce système, certaines compagnies ont passé des contrats d'approvisionnement en plantes énergétiques avec les agriculteurs. Des recherches sont aussi effectuées pour créer des systèmes de combustion combinés spécialement conçus pour la biomasse (" Scottish and Southern Energy ") et des systèmes d'approvisionnement en biomasse intégrés à la centrale (" Mitsui Babcock ").

L'autre technique envisagée est la combustion directe de biomasse dans des centrales adaptées. Trois mille cinq cents petites unités de cogénération, qui produisent chacune 100 kW d'électricité et 150 kW de chaleur, ont été vendues par l'entreprise Talbott's de Strafford dans les Midlands. Ce type d'unité, un des premiers distribués sur le marché, a été largement exporté et on en trouve notamment en France, Amérique du Nord et Australie. La combustion des déchets agricoles est, elle aussi, bien développée par les industries britanniques, notamment Bronzeoak, avec des marchés extérieurs tel le Sud-Est asiatique qui produit des déchets comme la bagasse, résidu de canne à sucre, ou les résidus de riz et de palmiers.

AI

^ Haut
Espace
Espace et Cosmologie
Le Japon confirme ses ambitions spatiales en posant sa sonde sur un astéroïde
Mercredi, 23/11/2005 - 00:00

La sonde spatiale japonaise Hayabusa a atterri avec succès sur un astéroïde et a réussi à collecter des échantillons de poudre, a annoncé le 26 novembre l'Agence spatiale japonaise, la JAXA. Hayabusa s'est posée pendant quelques secondes sur l'astéroïde Itokawa, situé à 290 millions de kilomètres de la Terre, avant de redécoller pour transmettre ses données au centre de contrôle de la mission, a expliqué Kiyotaka Yashiro, porte-parole de la JAXA. "Les premiers mouvements et opérations semblent très bons. Le processus de collecte semble également s'être très bien passé", a déclaré M. Yashiro. La confirmation définitive du succès de la mission devrait intervenir prochainement, le temps que les scientifiques japonais analysent l'ensemble des données transmises par la sonde. C'est la deuxième fois qu'Hayabusa se pose sur Itokawa.

La sonde s'est brièvement posée comme prévu sur l'astéroïde, au relief accidenté, qui mesure moins de 600 mètres de long sur 300 mètres de large et 200 mètres de haut et, difficulté supplémentaire, n'offre qu'une très faible gravité. Elle a ensuite envoyé un projectile sur le sol de ce dernier pour provoquer un rejet de matière et "aspirer" des poussières dans un tube, avant de repartir. Rejoindre Itokawa et s'y poser était déjà un exploit en soi, selon la JAXA.

Cela revenait, affirmaient les ingénieurs nippons, à "faire atterrir un jumbo jet dans une vallée du Grand Canyon". Le tout en mode automatique, puisque cette phase délicate ne pouvait être pilotée depuis la Terre. Une première tentative avait échoué. "Ce deuxième contact réussi avec Itokawa ainsi que la collecte de matière, autre que des échantillons lunaires, constitue une première mondiale qui prouve que nous sommes capables de réaliser des exploits de top-niveau", s'est félicitée la JAXA. "Etant donné qu'on estime que cet astéroïde est apparu il y a environ 4,6 milliards d'années, ces échantillons s'apparentent à des fossiles du système solaire", expliquent les chercheurs japonais qui se montrent désormais impatients de mettre la main sur le butin.

La sonde Hayabusa, lancée en mai 2003, doit revenir sur Terre en juin 2007. Elle doit entamer début décembre 2005 son voyage de retour. L'agence spatiale nippone espère qu'elle sera la première à effectuer un tel aller-retour entre la Terre et un astéroïde. En 2001, un sonde de la NASA avait recueilli pendant deux semaines des données à la surface de l'astéroïde Eros, mais n'était pas revenue avec des échantillons. Le Japon, quatrième pays du monde à placer un satellite en orbite, en 1972, a annoncé cette année son intention d'envoyer des hommes dans l'espace et d'installer une base sur la lune d'ici 2025.

AP

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'homme est bien responsable de l'accumulation des gaz à effet de serre
Mercredi, 23/11/2005 - 00:00

Il y a plus de dioxyde de carbone dans l'atmosphère aujourd'hui qu'à aucun autre moment au cours des 650.000 dernières années, montre une nouvelle étude européenne, qui souligne le rôle de l'homme dans l'accumulation des gaz à effet de serre jugés responsables du réchauffement climatique. L'étude menée par le programme européen Epica (European Project for Ice Coring in Antarctica), a porté sur l'analyse de minuscules bulles d'air conservées dans la glace de l'Antarctique pendant des millénaires.

Cette étude, qui repose sur l'analyse de carottes de glace extraites des zones les plus hostiles de l'Antarctique, semble démontrer le rôle majeur de l'homme dans les récentes modifications du climat de la planète, objet de la conférence internationale qui s'est tenue à Montréal (Canada). Un groupe de scientifiques européens, dont des équipes du CEA et du CNRS français, a effectué sur le site de Dome Concordia (Dome C), dans l'est du continent blanc, le forage sur glace le plus profond jamais réalisé jusqu'ici.

Mené dans des conditions extrêmes, au milieu des blizzards et par des températures moyennes de l'ordre de -54°C, ce forage a permis de ramener à la surface des carottes de glace produites par l'accumulation de neige tombée il y a quelque 650.000 ans, bien avant l'apparition de l'homme moderne. L'analyse du gaz carbonique piégé dans ces carottes de 10 centimètres d'épaisseur n'a pas permis de retrouver des concentrations de C02 dans l'atmosphère comparables à celles d'aujourd'hui (380 ppm).

Les niveaux de gaz carbonique dans l'atmosphère ont commencé à s'accroître avec la révolution industrielle, avec l'utilisation à grande échelle du charbon comme source d'énergie. Au cours des dernières décennies, le rythme s'est accéléré avec l'industrialisation de nombreux pays et la multiplication des automobiles.

Avant les débuts de l'industrie, la concentration de CO2 ne dépassait pas 278 ppm. Ses niveaux d'aujourd'hui sont supérieurs de 27 % à leur niveau le plus haut des 650.000 dernières années, selon l'étude publiée dans le magazine scientifique américain Science.

Ces travaux remarquables promettent d'améliorer "de manière spectaculaire" notre compréhension sur le changement climatique, estime le spécialiste Edward Brook de l'université de l'Oregon, aux USA. Les taux de dioxyde de carbone (CO2) et d'autres gaz à effet de serre (GES), qui sont émis notamment par la combustion des énergies fossiles, sont passés de 280 parties par million (ppm) il y a deux siècles à 380 ppm aujourd'hui dans l'atmosphère, contribuant à un réchauffement progressif du climat.

La nouvelle étude réfute catégoriquement l'hypothèse avancée par certains selon laquelle la progression des GES serait le résultat d'un cycle naturel. Les chercheurs ont extrait des profondeurs de l'Antarctique de l'air remontant à 650.000 ans, ce qui permet une analyse directe de l'atmosphère de l'époque. Une précédente analyse des GES portait sur un échantillon datant de "seulement" 440.000 ans. Le taux de CO2 dans l'atmosphère, qui continue à grimper, est déjà plus élevé d'un quart par rapport à son niveau le plus haut durant tous ces millénaires, a souligné le directeur des recherches, Thomas Stocker, de l'université de Berne. "Nous ne sommes plus dans un cycle naturel aujourd'hui", assure-t-il.

En outre, l'augmentation actuelle du taux de CO2 se produit à un rythme beaucoup plus rapide "que tout ce que l'on peut observer dans les cycles naturels", poursuit M. Stocker. L'équipe de chercheurs, qui comprend des scientifiques français et allemands, a découvert des résultats similaires pour le méthane et d'autres GES.

BBC

Forte réduction de la calotte glaciaire arctique
Mercredi, 23/11/2005 - 00:00

La calotte glaciaire arctique s'est fortement réduite cette année et ce pour le quatrième été consécutif, ont indiqué mercredi des scientifiques américains, selon lesquels ce phénomène, attribué au réchauffement du climat, va probablement s'accélérer. "Etant donné le bas niveau record des glaces cette année à l'approche de la fin septembre, 2005 va presque certainement surpasser 2002 pour la plus faible superficie de glace dans l'Arctique depuis plus d'un siècle", a déclaré Julienne Stroeve du Centre National des données sur les neiges et glaces (NSIDC).

Ces observations et mesures sont effectuées à l'aide de satellites de la Nasa, l'agence spatiale américaine. "A ce rythme, l'Arctique n'aura plus de glace pendant la saison d'été bien avant la fin de ce siècle", a-t-elle ajouté. La zone gelée de l'océan arctique est normalement réduite à son minimum en septembre, à la fin de la fonte d'été. Le 21 septembre 2005, la banquise n'était que de 5,32 millions de km2, soit la plus faible superficie jamais mesurée par les satellites d'observation, ont précisé les scientifiques dans un communiqué. "Avec quatre années consécutives de faible superficie de la glace arctique, on peut penser avec une assez grande certitude qu'un phénomène de fonte durable est en train de se produire", a expliqué Walt Meier, un autre climatologue du NSIDC.

"Cela indique clairement (...) qu'il ne s'agit pas d'une anomalie de courte durée", a-t-il ajouté. Les experts du NSIDC ont calculé, en intégrant les dernières mesures de septembre 2005, que la calotte glacière de l'Arctique se réduisait de 8 % environ tous les dix ans. Ils ont également constaté qu'il y avait eu environ 20 % de moins de formation de glace durant l'hiver au cours des quatre dernières années comparativement à la période 1978-2000. Cette réduction de la superficie gelée de l'océan arctique représente approximativement 1,3 million de km2, soit environ l'équivalent de deux fois la France. La disparition grandissante des glaces arctiques correspond à une hausse des températures au cours des dernières décennies, a souligné le NSIDC. La température moyenne à la surface de l'océan arctique était entre janvier et août 2005, de 2 à 3 degrés Celsius plus chaude qu'au cours des cinquante dernières années.

NSDIC

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Première mondiale en chirurgie : une greffe partielle du visage réalisée à Amiens
Mercredi, 23/11/2005 - 00:00

La "première allogreffe partielle de la face", qui porte sur le triangle nez-lèvres-menton, a été réalisée dimanche 27 novembre au CHU d'Amiens (Somme) sur une femme âgée de 38 ans, gravement défigurée par une morsure de chien en mai dernier, ont annoncé les Hôpitaux de Lyon et le CHU d'Amiens. La patiente, qui souhaite garder l'anonymat, est à ce jour "en excellent état général et l'aspect du greffon est normal", précisent-ils dans un communiqué, en expliquant que cette allotransplantation est le fruit d'une "collaboration étroite entre le service de chirurgie maxillo-faciale du CHU d'Amiens (Pr Bernard Devauchelle) et le service de chirurgie de la transplantation de l'hôpital Edouard Herriot du CHU de Lyon (Pr Jean-Michel Dubernard)".

Le greffon a été prélevé "chez une donneuse multiorganes en état de mort encéphalique avec l'accord de la famille", d'après les Hôpitaux de Lyon et le CHU d'Amiens qui ne donnent pas de précisions sur le lieu où a été effectué le prélèvement. Dans leur communiqué, les Hôpitaux de Lyon et le CHU d'Amiens ont précisé qu'au-delà des conséquences esthétiques de la morsure dont a été victime la patiente en mai dernier, la blessure s'est révélée "très invalidante tant au niveau de l'élocution que de la fonction de mastication". "Ce type de lésion est extrêmement difficile, voire impossible à réparer par les techniques de chirurgie maxillo faciale habituelle", ont-ils souligné.

Selon le Pr Dubernard, l'opération est une "première mondiale". Le chirurgien, également député UMP du Rhône, a déjà acquis une renommée internationale avec son équipe en dirigeant la première allogreffe d'une main en septembre 1998 à Lyon. L'opération avait été réalisée pour une seule main coupée à hauteur du poignet sur le Néo-Zélandais Clint Hallam. Cependant, durant six mois, le patient avait refusé de poursuivre son traitement immunosuppresseur anti-rejet. Et à sa demande, il s'était fait amputer sa main greffée, en février 2001, à Londres.

Le 13 janvier 2000, le Pr Dubernard avait franchi une nouvelle étape en réalisant la première double greffe bilatérale des mains et des avant-bras à Lyon sur Denis Chatelier, âgé à l'époque de 33 ans. Ce peintre en bâtiment, originaire de Charente-Maritime, avait perdu ses deux mains en 1996 en manipulant une fusée artisanale qu'il fabriquait pour ses neveux. Il portait depuis des prothèses myoélectriques ne lui permettant de réaliser que des gestes simples. Début 2005, le Pr Dubernard avait annoncé que la greffe avait "définitivement pris".

Interrogé en 2003 sur une éventuelle greffe du visage, Jean-Michel Dubernard s'y était déclaré "favorable à condition que cette greffe soit demandée par un patient". "Si une personne, suite à un accident, ne peut plus supporter son visage, on doit pouvoir lui faire une greffe", avait-il précisé. D'après le Pr Dubernard, les équipes médicales de Lyon et d'Amiens se sont accordées pour ne plus divulguer d'informations sur cette première allogreffe partielle de la face avant vendredi 2 décembre lors d'une conférence de presse organisée au Pavillon C de l'hôpital Edouard Herriot à Lyon.

Parmi les premières réactions dans la communauté médicale internationale, le Dr Chris Koo, président de l'Association britannique des spécialistes de chirurgie plastique a expliqué que "des inquiétudes concernant" la possibilité d'un rejet, "l'impact psychologique et les conséquences d'un échec" de l'opération empêchent "jusqu'à présent un accord sur le plan éthique de la procédure au Royaume-Uni". Le Dr Stephen Wigmore, président de la commission d'éthique de la Société britannique de transplantation, note pour sa part que les progrès de la microchirurgie et des traitements anti-rejet ont rendu possible techniquement la transplantation de la peau et des muscles faciaux d'un donneur décédé. Toutefois, souligne-t-il, il faudra probablement utiliser des médicaments anti-rejet à haute dose, sur une période prolongée, sans compter les conséquences d'un éventuel échec de l'intervention.

"Pour avoir repoussé les limites de la science, ils doivent être applaudis, du moment qu'ils ont eu le total consentement, en connaissance de cause, du patient et de la famille du donneur", a réagi le Dr Iain Hutchinson, directeur de la Fondation de recherche en chirurgie faciale, dont le siège se trouve à Londres. Prélever un visage, observe-t-il, peut avoir des conséquences pour la famille en deuil du donateur. Pour John Barker, directeur de recherche en chirurgie plastique à l'Université américaine de Louisville, l'intervention pourrait offrir "une nouvelle et potentiellement meilleure option" pour les personnes défigurées quand les autres traitements ne sont pas viables.

AP

BBC

NYT

WP

Cancer du cerveau : une thérapie utilisant un virus modifié donne de résultats prometteurs
Mercredi, 23/11/2005 - 00:00

Des chercheurs de l'Université de Glasgow dirigés par Moira Brown ont mis au point une nouvelle et très prometteuse thérapie anticancéreuse utilisant un virus génétiquement modifié capable de tuer sélectivement les cellules cancéreuses et de stimuler de manière puissante le système immunitaire des malades. Après de longues expérimentations chez l'animal, le premier patient de 21 ans, atteint d'un grave cancer du cerveau, a été traité en 1997 à l'aide d'un virus génétiquement modifié de l'herpès dénommé HSV1716. Les médecins donnaient alors quatre mois à vivre à ce malade. En 2005, celui-ci est toujours vivant et sa tumeur a disparu.

Depuis 1997, 39 patients atteints de gliome (un cancer incurable du cerveau) ont été traités par cette nouvelle thérapie et cinq de ces malades sont toujours vivants alors que leur espérance de vie initiale n'était que de quelques mois. Les autres malades ont gagné plusieurs mois d'espérance de vie. Ce virus de l'herpès a été génétiquement modifié pour exprimer une enzyme, la nitroreductase. Cette enzyme est employée pour activer le CB1954, une molécule chimiothérapique, une fois celle-ci acheminée par le virus dans la cellule cancéreuse. "Cette combinaison d'une thérapie génique et de chimiothérapie ouvre de grandes perspectives dans la lutte contre le cancer", souligne Moira Brown. Les essais se poursuivent à présent sur plus d'une centaine de malades atteints de différentes formes de cancer du cerveau, de la tête et du cou.

Article @RTFlash

UOG

DM

Des nanotubes de carbone pour la détection du cancer
Mercredi, 23/11/2005 - 00:00

Une équipe associant des biochimistes et des ingénieurs du Jefferson Medical Center et de l'University of Delaware a mis au point un test de détection des cellules cancéreuses à l'aide de nanotubes de carbone. Le biocapteur réalisé par l'équipe est constitué d'électrodes métalliques qui permettent de polariser des nanotubes dont la surface a été fonctionnalisée avec des anticorps spécifiques de l'antigène IGF1R, présent en grande quantité dans certaines cellules cancéreuses. Le principe de détection repose sur le contrôle du courant qui circule dans les nanotubes sous polarisation : on observe une brusque augmentation de courant lorsque des liaisons anticorps-antigène se forment, signalant ainsi la présence de cellules cancéreuses. Les tests ont été menés sur deux types de cellules cancéreuses du sein présentant deux taux antigène diffèrents. Le courant mesuré est multiplié par 3 ou par 8 selon la nature des cellules mises en contact avec le nanotube fonctionnalisé. Aucune augmentation de courant n'est détectable si l'antigène n'est pas spécifique de l'anticorps. Les chercheurs vont à présent essayer d'étendre la détection en milieu sanguin sur une large gamme de marqueurs. A terme, ces recherches pourraient aboutir à la réalisation de micro-dispositifs de détection automatisés remplaçant les méthodes histologiques actuelles qui sont longues et coûteuses.

BSC

Un médicament expérimental pourrait faciliter la lutte contre l'obésité
Mercredi, 23/11/2005 - 00:00

Un médicament qui supprime l'appétit permet non seulement de perdre du poids, mais aussi d'améliorer substantiellement les niveaux de cholestérol, ont constaté les chercheurs d'une équipe internationale dirigée par des Canadiens. Dans leur étude, réalisée auprès de plus de 1000 patients obèses ayant des niveaux élevés de gras dans le sang, le médicament expérimental rimonabant a permis aux participants de réduire leur tour de taille, d'abaisser leur concentration de triglycérides dans le sang et d'augmenter leur HDL, ce qu'on appelle le "bon cholestérol". Etre trop gras, avoir "un gros ventre" et des niveaux de lipides (gras) élevés constituent des risques importants de maladie cardiovasculaire et de diabète, affirme le docteur Jean-Pierre Després, de l'Institut de cardiologie de Québec. Le Dr Després est le principal chercheur de cette étude d'une durée d'un an. Selon le spécialiste, ce médicament pourrait permettre d'aider particulièrement les patients atteints d'obésité abdominale qui courent des risques élevés de maladies du coeur et de diabète. Le Dr Després a fait cette déclaration à Dallas, où il présentait ses travaux à la réunion de l'American Heart Association.

L'étude a été menée auprès de 1036 hommes et femmes, dont 269 Canadiens, qui ont dû suivre un régime faible en calories pendant un mois. Chacun a perdu près de cinq livres en moyenne. On les a ensuite divisés, de manière aléatoire, en trois groupes pour une durée d'un an : le premier groupe a reçu un placebo, le deuxième cinq milligrammes de rimonabant et le troisième 20 milligrammes du médicament. Les chercheurs ont constaté que les participants qui prenaient la dose de 20 milligrammes de médicament ont connu une amélioration significative par rapport à ceux qui prenaient la dose plus faible et ceux qui prenaient le placebo. La perte de poids additionnelle moyenne au sein du groupe du placebo, après 12 mois, atteignait cinq livres, et la réduction du tour de taille était de deux centimètres. Mais ceux qui prenaient la dose de 20 milligrammes ont connu une baisse de poids de près de 19 livres en moyenne et ont perdu de sept à huit centimètres de tour de taille, a dit le Dr Després. Simultanément, les niveaux de triglycérides ont chuté et il y a eu une augmentation substantielle de cholestérol HDL, a-t-il ajouté. De hauts niveaux de triglycérides sont associés à un faible taux de HDL, à l'obésité, au diabète et à l'hypertension artérielle. Si la perte de poids fait naturellement grimper le HDL, la hausse chez les participants qui prenaient la dose la plus élevée de rimonabant était nettement supérieure à ce à quoi on aurait pu s'attendre du seul fait de perdre du poids. "Environ la moitié de l'augmentation ne pouvait être expliquée par la perte de poids", a précisé le Dr Després, qui a attribué l'autre moitié de l'augmentation au mode d'action du rimonabant.

NEJM

Réduire les risques de chutes chez les seniors par la prise de vitamine D
Mercredi, 23/11/2005 - 00:00

Les chutes chez les personnes âgées ne sont pas rares et peuvent rapidement devenir dramatiques. Une récente étude menée par une équipe de chercheurs australiens dans 149 maisons de retraite, sur 625 résidents qui ne présentaient aucune carence en vitamine D, semble montrer qu'une prise quotidienne de cette vitamine réduise les risques de chute chez ces aînés.

Les participants à cette étude ont été divisés en deux groupes. Pendant une durée de deux ans, le premier s'est vu prescrire quotidiennement de la vitamine D et le second un placebo. L'ensemble des résidents prenait 600 mg de carbonate de calcium tous les jours. Parallèlement, le personnel des maisons de retraite notait dans un journal de bord, les chutes et les fractures qui survenaient auprès de ces deux groupes testés. Au démarrage de l'étude, les caractéristiques des deux groupes étaient les mêmes. Après deux ans, une analyse a montré que les patients qui prenaient au moins la moitié des pilules de vitamine D prescrites, présentaient un risque de chute et de fracture plus faible. Comparé au groupe sous placebo, celui qui prenait de la vitamine D avait réduit son risque de chute entre 27 et 37 %, selon ces chercheurs australiens. « Ces résultats appuient l'utilisation d'un apport complémentaire en vitamine D chez les personnes âgées qui résident en maison de retraite » indique le Dr Léon Flicker, responsable de cette étude à l'Université de l'Australie occidentale. « Les seniors peuvent réduire les risques de chute et leurs conséquences, si pendant une durée de deux ans, ils prennent de la vitamine D en complément. Même ceux qui à la base, ne présentent aucune carence de cette vitamine » concluent les chercheurs.

SA

Un gène pour ne pas perdre la boussole
Mercredi, 23/11/2005 - 00:00

On sait que certaines bactéries ont une petite boussole interne constituée par une chaîne de petits cristaux enfermés dans une membrane, qui leur permet de s'orienter en fonction du champ magnétique de la Terre. Une équipe de chercheurs allemands a voulu savoir comment ces magnétosomes parvenaient à s'organiser ainsi en une chaîne stable et solide à l'intérieur de la bactérie. Ils ont mis en évidence chez une bactérie marine, Magnetospirillum gryphiswaldense, le rôle d'une protéine indispensable à cet alignement. L'équipe du Dr Dirk Schüler, de l'Institut Max Planck de Brême, a d'abord isolé la trentaine de gènes impliqués dans la fabrication et l'organisation des magnétosomes, qui sont constitués de cristaux de magnétite. Ils se sont concentrés sur un gène qui code pour une protéine présente dans la membrane qui entoure ces cristaux et ont créé une bactérie mutante dépourvue de cette protéine MamJ. Ces bactéries mutantes avaient toujours des magnétosomes mais en ordre dispersé, ce qui rendait leur boussole beaucoup moins efficace. Les chercheurs ont également découvert l'existence d'un filament servant de squelette à la chaîne de magnétosomes. Ils en déduisent donc que la protéine MamJ est exprimée à la fois à la surface des magnétosomes et sur la structure, permettant aux premiers de s'aligner le long du filament.

IMP

Mieux combattre les microbes : Découverte d'une nouvelle voie empruntée par le système immunitaire
Mercredi, 23/11/2005 - 00:00

Des chercheurs de l'Unité Inserm 725 « Biologie des cellules dendritiques humaines », Strasbourg, associés à des équipes de l'Institut de Pharmacologie et de Biologie Structurale de Toulouse et de l'Hôpital Universitaire de Bâle, viennent de mettre au jour un mécanisme immunologique qui permet de générer, à partir d'un antigène repéré par le système immunitaire, un antigène de taille plus petite. Ce qui en facilite la reconnaissance par les lymphocytes T, cellules chargées de défendre l'organisme. Cette découverte ouvre un nouveau champ d'investigations dans le domaine de l'identification d'antigènes microbiens qui pourraient avoir une importance vaccinale. La réponse immunitaire contre les mycobactéries, des microbes responsables de maladies comme la tuberculose et la lèpre, est assurée par des lymphocytes T. Ces cellules du sang reconnaissent de façon spécifique à la fois des peptides microbiens -présentés par les molécules d'histocompatibilité-, et des glycolipides -présentés par les molécules CD1.

Tous les antigènes microbiens glycolipidiques connus pour être immunogènes comprennent une tête glucidique de petite taille. Or, les microbes produisent aussi des glycolipides dont la partie glucidique est d'une taille relativement importante. Aussi l'existence de mécanismes permettant de transformer ces dernières molécules en de plus petites, reconnues par les lymphocytes T, étaient suspectés longtemps. Ils viennent d'être identifiés. L'Unité Inserm 725 « Biologie des cellules dendritiques humaines », dirigée par Daniel Hanau à Strasbourg, a réussi à identifier, grâce à une approche génétique, un certain nombre de nmolécules caractéristiques de ces cellules. Parmi ces molécules, l'attention des chercheurs de l'Inserm a porté sur la molécule CD1e, une protéine demeurée longtemps mystérieuse. Les chercheurs ont ainsi démontré que la molécule CD1e permet l'hydrolyse partielle, par des glycosidases lysosomales, de la partie glucidique de glycolipides de grande taille.

Ce processus permet de générer des antigènes pourvus d'une tête glucidique de plus petite taille, qui peuvent ainsi être présentés par la molécule CD1b à des lymphocytes T. Grâce à ces travaux, le mécanisme immunologique qui aboutit à la transformation d'antigènes immunogènes à partir de molécules qui ne le sont pas par elles-mêmes est mis au jour. Des antigènes glycolipidiques encore inconnus pourront être découverts en tenant compte de ce mécanisme. La participation de la molécule CD1e à d'autres mécanismes enzymatiques dans la génération d'antigènes est envisageable. L'importance de la molécule CD1e dans le développement de la réponse immunitaire contre la tuberculose est posée. Cette découverte ouvre donc tout un nouveau champ d'investigations qui pourrait avoir des implications vaccinales ou thérapeutiques.

Inserm

Privé d'affection, le nourrisson souffre de modifications cérébrales
Mercredi, 23/11/2005 - 00:00

Une équipe de l'université du Wisconsin dirigée par Seth Pollack a étudié les liens entre maturation cérébrale et interactions sociales. Ces chercheurs ont trouvé dans certains orphelinats comment les soins donnés au nourrisson durant ses premiers mois de vie peuvent modifier la production d'hormones jugées cruciales dans la régulation des comportements sociaux. Leurs observations ont porté sur un groupe de 18 enfants adoptés en moyenne à l'âge de 16 mois, dans des institutions russe et roumaine, par des couples de la région de Milwaukee. Après trois années passées aux Etats-Unis, certains d'entre eux montrent des comportements souvent associés à un manque de soins affectifs dans la petite enfance - comme la recherche de réconfort auprès d'un adulte inconnu. L'objectif des psychologues américains était de mesurer les taux de deux hormones, la vasopressine et l'ocytocine, connues pour leur implication dans les comportements sociaux, le stress et l'établissement de liens de confiance. Ils ont comparé leur concentration dans l'urine de deux groupes d'enfants, naturels ou adoptés, après qu'ils aient joué avec des adultes - leur mère ou une inconnue. Mesurée en dehors de sessions expérimentales, la concentration en vasopressine était en moyenne plus basse chez les enfants adoptés. En outre, "comme prédit, les taux d'ocytocine ont augmenté chez les enfants après ces contacts physiques avec leur mère biologique, écrivent les chercheurs. Mais les enfants (des orphelinats) n'ont pas montré cette réponse avec leur mère adoptive". Enfin, il n'y avait pas de différence entre les groupes en cas d'interaction avec l'inconnue.

Ces observations sont, pour les psychologues américains, le signe que l'absence précoce de soins et d'affection altère le développement normal de la régulation de la vasopressine et de l'ocytocine : "Les perturbations de ce système pourraient interférer avec les effets calmants et réconfortants qui émergent entre les jeunes enfants et les proches qui leur procurent soin et affection." Les chercheurs américains soulignent que tout n'est pas écrit : les différences individuelles sont marquées et ils n'excluent pas que des enfants "avec une réactivité hormonale plus basse" puissent in fine développer "des relations sociales satisfaisantes".

UWM

PNAS

La schizophrénie assoit ses bases génétiques
Mercredi, 23/11/2005 - 00:00

Les causes de la schizophrénie sont encore mal connues. Cette maladie psychique, marquée par des hallucinations, des troubles de la pensée et du comportement, une perturbation de la perception de soi, serait au moins en partie due à des facteurs génétiques. Deux études publiées ces derniers jours confirment le rôle d'un gène, DISC1, dans le développement de la schizophrénie. L'équipe de Kirsty Millar, de l'Université d'Edimbourg, en Ecosse, avait mis en évidence une même mutation sur le gène DISC1 chez des schizophrènes d'une même famille, il y a cinq ans. Des chercheurs de l'université John Hopkins (USA) ont créé des souris portant cette mutation et ont constaté que ces rongeurs souffraient d'anormalités au niveau cérébral. L'organisation inhabituelle de leurs neurones ressemblaient aux schémas observés dans le cerveau des schizophrènes, explique Akira Sawa et ses collègues dans la revue Nature Cell Biology.

De son côté, des travaux menés par Kirsty Millar ont mis en évidence le rôle d'un autre gène, PDE4B, qui interagit avec le mécanisme de DISC1. Les chercheurs de Glasgow et d'Edimbourg ont constaté chez deux schizophrènes qu'ils avaient une mutation affectant la protéine PDE4B qui l'empêche de se lier à la protéine DISC1. PDE4B est notamment impliquée dans la mémoire et l'apprentissage. Ces mutations augmenteraient le risque de souffrir de schizophrénie, de désordre bipolaire ou de dépression profonde, précisent les chercheurs dans la revue Science. D'autres gènes pourraient être impliqués dans le développement de la schizophrénie qui, comme l'autisme, est une maladie complexe et sans doute multifactorielle.

University of Edinburgh

Alzheimer : la mesure du glucose dans le cerveau permettrait une détection précoce de la maladie
Mercredi, 23/11/2005 - 00:00

En 2004, le Docteur Leon de Mony, Directeur du Centre de santé cérébrale, et ses collaborateurs de la Faculté de médecine de New York ont montré, en utilisant la tomographie et l'IRM (imagerie par résonance magnétique nucléaire), que la taille de l'hippocampe, une région du cerveau associée à la mémoire, diminue avec la progression de la maladie. S'appuyant sur ces observations, Mosconi, de l'Université de Florence en Italie, et ses collaborateurs du Département de psychiatrie de la Faculté de médecine de New York ont élaboré une technique permettant de prévoir quelles sont les personnes susceptibles de développer la maladie d'Alzheimer, et ce neuf ans avant l'apparition des symptômes. Pour cette étude, 53 personnes de bonne santé âgées de 54 à 80 ans ont été suivies pendant au moins neuf ans. Elles ont été soumises à des scintigraphies et tomographies pour mesurer le volume de glucose utilisé par le cerveau. Il a été ainsi montré pour la "première fois qu'une réduction de l'activité du métabolisme dans l'hippocampe pourrait prédire si une personne présente un risque de développer la maladie d'Alzheimer".

WCHS TV

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Mozilla Firefox 1.5 est sorti
Mercredi, 23/11/2005 - 00:00

La version finale de Mozilla Firefox 1.5 est disponible depuis le 30 novembre au téléchargement depuis GetFirefox.com pour les systèmes d'exploitation les plus importants ou depuis les miroirs. Les utilisateurs des versions Release Candidates devraient recevoir la mise à jour bientôt. NDT : Firefox 1.5 a été diffusé en une vingtaine de langues simultanément dont le français.

Firefox 1.5 comporte plusieurs nouvelles fonctionnalités dont un système de mise à jour logicielle amélioré, une navigation en arrière et en avant plus rapide, une fonction pour effacer ses données de navigation privées, la réorganisation des onglets par glisser-déposer, une fenêtre d'Options/Préférences redessinée et un meilleur blocage des popup. Le support des standards du Web est aussi amélioré, avec le support des Scalable Vector Graphics , JavaScript 1.6 et davantage de CSS. L'accessibilité est aussi meilleure (y compris les nouvelles fonctions d'accessibilité du DHTML), la sécurité a aussi été perfectionnée et il y a maintenant un support de Mac OS X plus important.

Davantage de détails peuvent être trouvés dans les notes de diffusion de Firefox 1.5 et les membres des forums d'assistance sont disponibles pour vos questions. NDT : Les membres des forums de Geckozone répondront aux questions des utilisateurs francophones de Firefox comme ils le font brillamment depuis déjà un bon moment pour tous les produits issus de Mozilla.

Mozillazine

Les Français champions d'Europe du temps passé sur le Web
Mercredi, 23/11/2005 - 00:00

Les Français sont donc les plus gros consommateurs d'Internet en Europe. Selon l'European Interactive Advertising Association (EIAA), l'internaute français passe en moyenne 13 heures par semaine sur la Toile, contre une moyenne européenne de 10h30. 32 % des français interrogés passent plus de 16 heures sur Internet. Ils dépassent la Grande Bretagne et l'Espagne (11 heures par semaine en moyenne) et les pays nordiques (10 heures par semaine en moyenne). Les Italiens et les Allemands sont les moins assidus avec respectivement huit et neuf heures par semaine.

Selon le rapport, les Européens sont de plus en plus adeptes du Net, ils y passent 17 % de temps en plus en ligne qu'en 2004 et 56 % de plus qu'en 2003. L'internaute européen moyen consulte le Web cinq jours par semaine. L'étude met également en évidence un nouveau groupe de super utilisateurs d'Internet en Europe, avec 24 % des personnes interrogées qui y passent plus de 16 heures par semaine.

L'étude révèle également que les internautes adoptent de plus en plus les nouveaux services et les nouvelles technologies du net. La haute pénétration du haut débit transforme les consommateurs en Internautes avertis : 29 % des personnes interrogées téléchargent de la musique au moins une fois par mois grâce à l'arrivée des nouvelles plates-formes comme I Tunes d'Apple. Les blogs sont également de plus en plus populaires : 13 % déclarent en tenir un. 10 % des internautes ont aussi déjà téléphoné par le Web. Internet est en train de devenir le média préféré des européens. Il est le 2e média le plus consulté après la télévision et c'est déjà la source d'information privilégiée des Européens.

EIAA

Le cybercrime rapporte plus que la drogue !
Mercredi, 23/11/2005 - 00:00

Les actes délictueux perpétrés via Internet ont généré plus de profit que le trafic de drogue en 2004 et devraient continuer dans ce sens au fur et à mesure que l'usage des technologies se développera dans les pays en voie de développement, a déclaré un expert lundi 28 novembre. Aucun pays n'est à l'abri des cybercriminels, qui pratiquent l'espionnage industriel, la pornographie infantile, les manipulations de cours en bourse, l'extorsion et la piraterie, a expliqué Valerie McNiven, conseiller en cybercrime au Département américain du Trésor.

"L'année dernière fut la première année au cours de laquelle les recettes du cybercrime ont été plus importante que les recettes tirées de la vente de drogue, et elles dépassaient, me semble-t-il, les 105 milliards de dollars", a déclaré McNiven à Reuters. "Le cybercrime progresse si vite que les législations ne peuvent pas s'adapter. "Par exemple, les sites Web utilisés par les escrocs pour le "phishing", pratique qui consiste à pousser un internaute à révéler ses coordonnées bancaires personnelles ou d'autres données personnelles, n'existent pas plus de 48 heures sur Internet, a-t-elle expliqué.

Quand à d'éventuelles preuves de liens entre le financement du terrorisme et le cybercrime, McNiven, ancienne spécialiste de la finance et de la sécurité en ligne pour la Banque mondiale, estime qu'il y a "des preuves de liens entre les deux. Mais le plus grave est notre refus ou notre incapacité à créer des systèmes sécurisés, que nous pouvons mettre en place mais c'est une question de coûts. "Les pays en développement qui n'ont pas en main les systèmes virtuels financiers disponibles ailleurs sont des proies faciles pour les auteurs de délits en ligne, qui sont souvent de jeunes gens à la recherche de gains rapides. "Quand vous êtes face à des vols d'identité, de la corruption ou de la manipulation d'information (dans les pays en développement), les choses deviennent plus graves parce que (...) leurs systèmes deviennent compromis dès le départ", a-t-elle dit, en marge d'une conférence sur la sécurité des informations dans le secteur bancaire, à Riyad. "Un autre domaine qui commence à prendre de l'importance est le trafic de personnes et la pornographie parce que chacun des deux se développe plus librement dès qu'il dispose d'une facilité de communication", a ajouté McNiven.

NO

Google teste la mise en relation téléphonique entre internautes et annonceurs !
Mercredi, 23/11/2005 - 00:00

Google teste actuellement un nouveau service baptisé "click-to-call", qui met en relation téléphonique directe les utilisateurs de son moteur de recherche et les annonceurs, dont les publicités s'affichent sur les pages de résultats de requêtes. Son principe est simple : dans une page de résultats, la fonction "click-to-call" est disponible lorsqu'une icône représentant un téléphone jouxte la publicité qui s'affiche. L'internaute entre alors son numéro de téléphone dans un champ, puis clique sur un bouton de mise en communication gratuite. Le service de Google compose son numéro et, lorsque l'internaute décroche son combiné, il est en ligne avec l'annonceur.

Google ne fournit aucune indication sur la technologie utilisée. Seule certitude, ce service ne fonctionne pas en mode VoIP : il connecte deux personnes via les lignes téléphoniques classiques. Le moteur de recherche assure prendre en charge les coûts de communication, qu'ils soient locaux ou non. Toutefois, si l'annonceur a un téléphone mobile, des frais pourraient être à prévoir selon les opérateurs, indique-t-il sans plus de précisions.

Google garantit un respect absolu de la vie privée : «Nous ne donnerons les numéros de téléphone à personne, pas même à l'annonceur. Lorsque vous êtes en communication, votre numéro est bloqué de sorte qu'il ne puisse le voir. De plus, nous supprimons le numéro de nos serveurs très rapidement». Pour les annonceurs, l'avantage du click-to-call est évident : permettre à leurs clients de les joindre directement via leur ordinateur peut accroître l'efficacité des publicités en ligne. Google compte sur ce nouveau service pour générer un revenu publicitaire supplémentaire. Mais il n'est pas le seul sur ce créneau. Grâce au rachat de Skype, eBay s'apprête à proposer le même service.

Google

INC

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top